Новости Статьи Российское ПО VMware Veeam StarWind vStack Microsoft Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6490 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Полный список лабораторных работ VMware Hands-on Labs

Несколько советов по дедупликации, компрессии и экономии дискового пространства в кластере VMware vSAN.


John Nicholson написал интересный пост с советами по экономии дискового пространства в кластере VMware vSAN, а также некоторыми рекомендациями по использованию техник дедупликации и сжатия данных.

Вот каким моментам следует уделить внимание:

1. Посмотрите на параметр политики хранения object space reservation (OSR) - если он установлен в 0, то виртуальные диски машин будут тонкими. Если же он будет больше 0, то пространство под диски будет резервироваться и vSAN не сможет эффективно использовать дедупликацию, так как будет вынужден поддерживать фиксированные резервы дискового пространства под ВМ.

2. Помните, что параметр резервирования свопа установлен в 100%, но это можно поменять, как мы писали в этой статье. Уменьшение параметра резервирования свопа оправдано, когда вы не собираетесь использовать memory overcommitment (то есть, ресурсов у вас с запасом), а значит виртуальным машинами не потребуется активно сбрасывать страницы в своп в случае недостатка физической памяти.

3. Помните, что отдельно развертываемые виртуальные машины c дисками типа "thick" или "Eager Zero Thick" (например, со старых клиентов vSphere Client или через консоль) могут перекрывать настройку политики OSR. Чтобы пофиксить это, вы можете переприменить политику хранения (storage policy) на эти хранилища. William Lam написал несколько скриптов, которые позволяют найти такие ВМ и накатить политики по-новой.

4. Убедитесь, что данные записываются на capacity tier - только там они будут дедуплицироваться и сжиматься. Если вы развернули всего 3-4 машины, они могут остаться в буффере (write buffer). Механизмы vSAN не тратят ресурсы на дедупликацию и сжатие объектов, которые долго не живут (то есть, находятся в буффере на запись). Например, 10 машин по 8 ГБ диска каждая тоже могут остаться на стейджинге и, пока не переместятся в постоянное хранилище, не будут дедуплицированы.

Вот тут можно посмотреть, как именно отрабатывает дедупликация, и сколько она экономит дискового пространства:

Ну и вот что Джон рекомендует в плане тестирования дедупликации и компрессии:

  • Самый простой способ организовать тестирование - запустить клонирование 200+ виртуальных машин, они сразу пойдут в capacity tier, и механизм дедупликации включится.
  • Надо помнить, что тестирование этих механизмов и реальное их применение дадут разные результаты, так как при тестировании вы последовательно пишете данные на хранилище и избегаете узких мест, связанных с дестэйджингом из кэша во время размеренного использования кластера vSAN в продакшене.
  • Тестирование алгоритма сжатия на данных, которые плохо сжимаются - плохая идея, так как в этом случае vSAN не будет тратить ресурсы на их сжатие, чтобы записать на хранилище. Это позволит быстрее читать их, а экономия с точки зрения диска будет небольшой (к тому же, алгоритм сжатия LZ4 не такой быстрый, как хотелось бы).
  • При резких всплесках объема записываемых данных и IOPS, которые не помещаются в кэш, видно, что механизмы сжатия и дедупликации приостанавливаются и теряют эффективность. Это связано с тем, что vSAN прежде всего должен обеспечить хороший показатель latency (то есть уровня сервиса), а уже во вторую очередь эффективность механизмов дедупликации и компрессии.

Ну и в довершение, интереснейший документ от VMware - "vSAN Space Efficiency Technologies".


Таги: VMware, Storage, vSAN

Всё-всё-всё с прошедших VMware VMworld 2017.


Как многие из вас знают, в конце лета и начале осени прошли главные конференции по виртуализации этого года - VMworld 2017 и VMworld Europe 2017. Об основных анонсах мероприятий мы писали по этой ссылке, но в рамках этих ивентов было еще столько всего, что обо всем, конечно же, не напишешь.

Специально для тех, кто хочет узнать тонкости всех докладов, которые были представлены на конференциях, компания VMware создала репозиторий на GitHub, где содержатся вообще все ссылки на сессии, многие из которых дадут много новой информации и технических деталей о продуктах и технологиях виртуализации от VMware:

Сессии доступны как в виде роликов на Youtube, так и виде PDF-документов.

Ну а вот список самых популярных сессий (топ-10 по числу просмотров на Youtube):

  • [SER1143BU] - A Deep Dive into vSphere 6.5 Core Storage Features and Functionality [NET1152BU] - Introduction to VMware NSX
  • [SER1534BUR] - vSphere Performance Troubleshooting and Root Cause Analysis
  • [VIRT1309BU] - Monster VMs (Database Virtualization) with vSphere 6.5: Doing IT Right
  • [NET1345BU] - NSX in Small Data Centers for Small and Medium Businesses
  • [SER2724BU] - Extreme Performance Series: Performance Best Practices
  • [VIRT1430BU] - Performance Tuning and Monitoring for Virtualized Database Servers
  • [ADV1587BU] - NSX + VMware Horizon: A Security Architecture for Delivering Desktops and Applications with VMware
  • [SER2355BU] - Best Practices for All-Flash Arrays with VMware vSphere
  • [SER2965BU] - Advanced Troubleshooting of ESXi Server 6.x for vSphere Gurus
  • [SER2077BU] - Achieve Maximum vSphere Stability with PowerCLI Assisted Documentation: From Buildout to Daily Administration

Таги: VMware, VMworld, vSphere

Как увеличить VM Guest Partition с помощью PowerCLI.


Как часто вам приходится увеличивать логические диски внутри гостевых ОС ВМ? Довольно часто, не так ли? Вам надо сначала найти вашу ВМ в vSphere Client, потом кликнуть Edit Settings и перво-наперво увеличить виртуальный диск ВМ. После вы должны будете открыть RDP к вашей ВМ, затем открыть Disk Management, выбрать Rescan Disks из контекстного меню и только после этого ещё один правый клик на нужном вам логическом диске и вот сейчас выбрать Extend Volume...


Таги: VMware, PowerCLI, Storage, PowerShell, VMachines, ESXi, vSphere

VMware vSphere APIs for I/O Filtering (VAIO) - как это работает.


Недавно компания VMware выпустила интересный документ VMware vSphere APIs for I/O Filtering (VAIO), в котором описываются основные принципы работы данной технологии. Ниже мы расскажем о них вкратце, а также затронем тему того, каким образом можно использовать VAIO в производственной среде.

VAIO - это технология и API, которые позволяют получать прямой доступ к потоку ввода-вывода (I/O Stream) гостевой ОС виртуальной машины. Механизм VAIO уже сейчас способствует созданию партнерских продуктов для решения самых разнообразных задач (например, кэширование write-back и write-through). VAIO основан на механике Storage Policy Based Management (SPBM), которая предназначена для управления правилами хранения виртуальных машин и их работой с хранилищами.

Техническая реализация данного механизма подразумевает использование драйвера VAIO (filter driver), который устанавливается на хосте VMware ESXi как пакет VIB и не требует установки никакого специального ПО в гостевой ОС виртуальной машины.

Посмотрим на эту картинку, на которой изображен путь данных от виртуальной машины к физическому устройству хранения. На ней представлены 2 компонента, относящиеся к VAIO. Первый - это VAIO фреймворк, работающий на уровне ядра VMkernel и определяющий действующую политику фильтра. Второй - это IO Filter, представляющий собой программное обеспечение, работающее на уровне пользовательской среды исполнения (User World) сервера ESXi. Этот драйвер фильтра исполняет свою функцию (например, кэширование данных или их репликация), после чего передает их на физическое устройство хранения для записи.

Такая архитектура позволяет драйверу IO-фильтра получать доступ к потоку ввода-вывода, не сильно не влияя на производительность исполнения SCSI-команд. Еще одна особенность IO-фильтра - это возможность иметь доступ к потоку ввода-вывода как в сторону записи (от ОС к хранилищу), так и в обратную сторону (квитанции о прохождении команд). Это полезно, например, при использовании IO-фильтра для технологии репликации, где очень важно получать квитанции о записи данных на диск.

Кстати, SCSI-команды попадают к IO-фильтру сразу после того, как они проходят слой эмуляции SCSI (он же vSCSI), что позволяет использовать VAIO для любых типов хранилищ - VMFS, NFS, SCSI и vSAN. Ну а перехват команд IO-фильтром перед их отсылкой в сетевой стек к хранилищу позволяет обеспечить целостность данных и безопасность.

Еще, если внимательно посмотреть на архитектуру прохождения потока ввода-вывода, можно заметить, что драйвер IO-фильтра работает на уровне User World, а значит в целом не влияет на стабильность работы сервера ESXi. Даже если он вдруг прекратит свою работу, основной стек прохождения SCSI-команд, расположенный в ядре, продолжит работать в нормальном режиме.

Работает IO Filter на уровне отдельных VMDK-дисков конкретных ВМ, что открывает широкие возможности для механизма политик Storage Policy Based Management (SPBM) и применения их к отдельным виртуальным машинам и сервисам.

Все вышеперечисленное позволяет применять VMware VAIO при решении следующих типов задач:

  • Encryption – стороннее ПО за счет использования механизма VAIO может на лету шифровать и расшифровывать поток данных от виртуальной машины. Таким образом на хранилище будут помещаться уже шифрованные данные. Гранулярность работы VAIO позволяет обслуживать данные, идущие даже не от всей виртуальной машины, а только от одного приложения.
  • De-duplication - этот механизм уже использует решение VMware Virtual SAN. В реальном времени можно дедуплицировать данные, проходящие через драйвер и в таком виде уже класть на хранилище в целях экономии дискового пространства. Эта техника доступна и партнерам VMware.
  • Tiering - данные различной степени важности, критичности или классифицированные по другим критериям теперь можно класть на хранилища с разными характеристиками производительности и доступности (ярусы). Механизм VAIO тут поможет проанализировать характер данных и определить конечное их место назначения.
  • Analytics - теперь можно анализировать непосредственно поток данных от конкретной виртуальной машины и на основе этого строить множество различных решений, включая решения по кэшированию (например, такой продукт как PrimaryIO, который можно напрямую подключить к гипервизору). Затем можно, например, искать в трафике данные определенных приложений, либо, использовать механизм write-back кэширования.

Технология VAIO работает, начиная с VMware vSphere 6.0 Update 1, поддерживает горячую миграцию vMotion (VAIO должна быть доступна на целевом хосте) и кластеры VMware DRS (должна быть доступна на всех хостах).

Давайте теперь посмотрим, как VAIO работает на практике на одном из примеров. Чтобы начать работать с VAIO, вам нужно установить IO Filter в виде VIB-пакета, который реализует функциональную составляющую партнерского продукта для VMware vSphere.

Как правило, вместе с фильтром идет и политика SPBM (аналогичная тем, которые есть для vSAN или VVols, например), которую можно назначать виртуальным машинам на уровне виртуальных дисков VMDK.

Эту политику можно назначить при создании виртуальной машины в разделе Select Storage (в данном случае это политика кэширования на SSD):

Пример политики, идущей вместе с фильтром, как правило включает в себя Common Rule - правила, которые реализуют Data Services (то есть основной функционал фильтра) и определяются через компоненты Storage Policy Components (путем добавления компонентов в разделе Common Rules).

Например, в данном случае это тип кэширования Write Through или Write Back, который мы задаем в разделе Common Rules при создании новой политики хранения:

По умолчанию эти компоненты устанавливаются вместе со встроенными фильтрами vSphere и другими продуктами, которые пополняют набор IO-фильтров, а соответственно и компонентов по мере их установки. За счет использования Storage Policy Components возможности IO-фильтров могут быть включены в любую из уже настроенных политик VM Storage Policies.

Это очень удобно, поскольку на данный момент виртуальная машина или VMDK-диск могут иметь только одну примененную к ним политику хранения, но к ним можно добавить компоненты от разных фильтров.

Ну а сами IO-фильтры от разных производителей вы можете найти в VMware Compatibility Guide по этому адресу - https://www.vmware.com/resources/compatibility/search.php?deviceCategory=vaio.

Как видно из картинки, на данный момент не так много партнеров используют технологию VAIO для своих продуктов, а категорий решений всего две - репликация и кэширование. Но VMware активно работает в этом направлении, и в скором времени, возможно, мы увидим еще несколько продуктов, реализующих функционал IO-фильтров для решения новых задач.


Таги: VMware, vSphere, VAIO, Storage, API, SPBM, VMachines

Новые возможности последних версий VMware vSphere Client 3.22-3.24.


В сентябре мы писали о новых возможностях тонкого клиента vSphere Client 3.21, предназначенного для управления виртуальной инфраструктурой через браузер на базе технологии HTML5. За прошедший месяц вышли обновленные версии VMware vSphere Client 3.22, 3.23 и 3.24, о новых возможностях которых мы расскажем ниже.

Итак, что нового появилось в vSphere Client (на картинке выше, кстати, скрин кастомизации ОС):

  • Возможность кастомизации всех сетевых настроек, включая шлюз по умолчанию, при применении спецификации кастомизации гостевой ОС виртуальной машины (при клонировании или кастомизации существующей ВМ).
  • Добавление контроллера NVMe для новой или существующей ВМ.
  • Улучшенное представление просмотра деталей о совместимости в мастере развертываниия новой ВМ.
  • Возможность загрузки папки из файлового браузера.
  • Группы DRS могут быть отфильтрованы по их составляющим хостам.
  • В портлете VM Storage Policy отображаются Replication groups.
  • Можно посмотреть список установленных VIB-пакетов (на vSphere 6.5).
  • Редактирование информации о видеокарте для виртуальной машины.
  • Пофикшено множество багов, в том числе касающихся снапшотов.

Скачать VMware vSphere Client 3.24 можно по этой ссылке.


Таги: VMware, vSphere, Client, Update

Топ-4 рекомендаций к модернизации СХД.


Это гостевой пост компании ИТ-ГРАД - сервис-провайдера, предоставляющего виртуальные машины в аренду.

Если у вас есть система хранения данных, то рано или поздно она обязательно подвергнется модернизации, так как невозможно представить развивающийся бизнес без постоянного роста вычислительных ресурсов. Карло Велтен, генеральный директор Crisp Research, на первой конференции FlashForward, состоявшейся 1 июня 2017 года в Мюнхене, рассказал о четырех главных требованиях к модернизации систем хранения, которые сделают ИТ-инфраструктуру более надежной и современной.

Но рекомендации не имеют смысла без реализации на практике, поэтому остановимся на каждой из них применительно к новейшей системе хранения данных NetApp® All Flash FAS.

Масштабируемость (Skalierbarkeit)

NetApp® All Flash FAS обладает уникальной возможностью масштабирования среди продуктов компаний, представляющих на рынке решения с флэш-памятью. Все модели All Flash FAS могут быть расширены до 24 узлов. Это позволяет добиться невероятной «сырой» емкости в 7,3 Пб, что значительно больше, чем могут предложить конкуренты сегодня или в ближайшем будущем.

Но это еще не все! 5 июня этого года NetApp представила новую прошивку ONTAP® 9.2. С ее помощью клиенты могут масштабировать свою систему хранения почти до бесконечности, используя облачное хранилище. В версии 9.2 реализована новая технология FabricPool, которая позволяет осуществлять автоматический tiering между частными и публичными облаками, перемещая холодные данные с SSD-агрегата на более медленный объектный уровень (облако Amazon S3 или СХД NetApp StorageGRID). Это повышает эффективность использования мощностей и защиту инвестиций.

Хорошим примером использования масштабирования СХД от NetApp служит кейс Европейского космического агентства, ознакомиться с которыми вы можете по данной ссылке.

Производительность и доступность (Performance and Verf?gbarkeit)

Производительность системы хранения – очень важный параметр, так как потребности бизнеса очень быстро меняются, а ИТ-инфраструктура должна им соответствовать и быть гибкой. Поэтому создание вычислительных центров на базе самых мощных из представленных на рынке СХД, таких как All Flash FAS, является очень выгодным вложением. Результаты тестов SPC-1 показывают, что All Flash FAS входит в тройку самых быстрых систем хранения, доступных на текущий момент. Она также имеет отличный показатель соотношения цены и производительности – тот же рейтинг СХД доказал, что AFF 700s имеет лучшее соотношение $/IOPS из 10 протестированных систем.

Безопасность хранения данных (Datenhoheit and Sicherheit)

Сейчас набирают популярность решения гибридного облака, но безопасное перемещение данных между узлами внутри него все еще вызывает сомнения и опасения. Для решения этой проблемы NetApp предлагает Data Fabric. С помощью технологии Data Fabric вы можете безопасно перемещать данные в облаках (частных или публичных) и управлять ими, чтобы получить все преимущества гибридной модели. Модели NetApp серии All Flash FAS могут быть интегрированы в Data Fabric для репликации, создания резервных копий и распределения данных по различным уровням систем хранения в публичном или частном облаке.

Для того чтобы узнать больше об этой технологии, ознакомьтесь с нашим информационным буклетом.

Эффективность (Effizienz)

Для повышения эффективности системы хранения используют такие технологии, как сжатие, дедупликация и экономное распределение (thin provisioning), но ONTAP теперь также позволяет делать дедупликацию на уровне агрегата (aggregate level) и уменьшать передачу избыточных данных между томами, что повышает эффективность хранения на 30%. Это важно как клиентам крупных центров обработки данных, которые ищут способы занимать меньше пространства путем оптимизации инфраструктуры, так и небольшим поставщикам услуг для сервисных провайдеров, когда платить приходится за каждый отдельный юнит. Переход на эффективную технологию флэш-памяти дает значительную экономию для клиентов независимо от их размера. ИТ-организации, которые перешли на систему хранения All Flash FAS, сократили используемую площадь от 4 до 10 раз.

О примере повышения эффективности вы можете прочитать в кейсе факультета гражданского строительства (FCE) Чешского технического университета (CTU).

All Flash FAS от NetApp удовлетворяет всем требованиям к модернизации СХД и может быть рекомендована для компаний любого уровня и масштаба.

Для более детального знакомства с решением NetApp All Flash FAS и другими системами хранения данных NetApp, предоставляемыми компанией «ИТ-ГРАД», обращайтесь в центр компетенции. Здесь вы всегда сможете задать интересующие вас вопросы и обсудить различные варианты построения ИТ-инфраструктуры.

Ссылка на статью в блоге ИТ-ГРАД.


Таги: IT-Grad, Storage, Обучение, Enterprise, NetApp

Проблема с VMware vCenter Server Appliance (vCSA) - ошибка 503 Service Unavailable.


Как пишут многие, в последнее время с виртуальным модулем VMware vCenter Server Appliance (vCSA) часто случаются проблемы. Например, вот такая ошибка появляется время от времени:

503 Service Unavailable (Failed to connect to endpoint: [N7Vmacore4Http20NamedPipeServiceSpecE:0x0000559b1531ef80] _serverNamespace = 
/ action = Allow _pipeName =/var/run/vmware/vpxd-webserver-pipe)

Как пишет Anthony Spiteri, зачастую эта ошибка связана с тем, что Linux-система, на базе которой работает vCSA (а именно Photon OS в vCSA 6.5), пока еще имеет достаточно ненадежную реализацию стека работы с хранилищами (в отличие от того, который есть в Windows). Поэтому при некоторых неполадках со стораджем или появлении высокой задержки (latency) сервер vCSA может "выпадать".

Ведь vCSA 6.5 имеет аж 12 файлов виртуальных дисков VMDK (раньше их было два), с которыми что-нибудь да может иногда случиться. Один из вариантов решения - проверить диски утилитой e2fsck, которая может проблем в случае 503 ошибки. Также проблема может таиться в USB-устройствах, и тогда вам поможет вот эта статья. А еще можно заглянуть вот сюда.

Может еще помочь выполнение следующих команд в консоли vCSA для перезапуска vSphere Web Client (надо будет подождать 15 минут):

service-control --stop vsphere-client
service-control --start vsphere-client

Ну и не забудьте заглянуть в эту ветку форумов VMware.

Интересно, что совсем недавно компания VMware анонсировала ежемесячные обновления vCSA, что может постепенно уменьшить имеющиеся проблемы. Но пока надежность vCenter для Windows остается более проверенной штукой (по крайней мере, в плане хранилищ), поэтому пока все вокруг топят за vCSA, подумайте нужно ли именно сейчас на него переезжать.


Таги: VMware, vCSA, Bug, Storage, vSphere

Как конфигурировать SDRS Anti-Affinity правила с PowerCLI – Часть 3


Это Часть 3 в серии о Storage DRS. В предыдущей части мы говорили о том как создавать и удалять SDRS Anti-Affinity правила. Чтобы закрыть тему, нам осталось редактировать/реконфигурировать существующие правила. Логично предположить, что это будет функция Set-SdrsAntiAffinityRule.


Таги: SDRS, PowerCLI, vSphere, VMware, Storage

Как выбрать дисковый контроллер для VMware vSAN?


Многие администраторы больших виртуальных инфраструктур VMware vSphere, в которых работают кластеры отказоустойчивых хранилищ VMware vSAN, часто задаются вопросом, какой дисковый контроллер выбрать для организации хранения на хостах ESXi.

Дункан Эппинг дает простую рекомендацию - надо брать один из самых недорогих поддерживаемых контроллеров, который имеет большую глубину очереди (Queue Depth). Например, часто в рекомендациях для vSAN можно встретить контроллер Dell H730, который является весьма дорогим устройством, если брать его на каждый сервер.

Но его не обязательно покупать, достаточно будет дискового контроллера Dell HBA 330, который и стоит дешевле, и глубину очереди имеет в 10 раз больше, чем H730 (хотя оба они соответствуют требованиям vSAN). Да, у H730 есть кэш на контроллере, но он в данном случае не требуется. Лучше использовать интерфейс NVMe для подключения отдельного SSD-кэша, не затрагивающего RAID-контроллеры (его нужно размещать как можно ближе к CPU).

Поэтому итоговая рекомендация по выбору дискового контроллера для кластеров vSAN проста - берите любое недорогое устройство из списка совместимости vSAN Compatibility Guide, но с хорошей глубиной очереди (например, HP H240), а на сэкономленные деньги отдельно организуйте кэш на базе NVMe.


Таги: VMware, SSD, Hardware, vSAN, NVMe, Storage

Вышло обновление платформы VMware Horizon 7.3 - что нового?


На днях компания VMware выпустила новую версию своей флагманской платформы для виртуализации и доставки настольных ПК предприятия - VMware Horizon 7.3. Напомним, что прошлая версия VMware Horizon 7.2 вышла в июне этого года.

Давайте посмотрим, что нового появилось в компонентах VMware Horizon 7.3:

1. VMware Horizon View Connection Server.

  • Новое средство Horizon Help Desk Tool.

Оно позволяет выполнять следующие задачи:

    • Просматривать данные о приложении, его процессах и использовании ресурсов внутри виртуальной машины или опубликованного десктопа, чтобы идентифицировать приложения потребляющие слишком много ресурсов.
    • Просматривать информацию из event log о действиях пользователя.
    • Просматривать обновленнные метрики, такие как версия Horizon Client или протокола Blast.
    • Просматривать метрики сессий, такие как информация о ВМ, ее CPU и использовании памяти.
    • Назначать роль с доступом к Horizon Help Desk Tool, чтобы делегировать полномочия пользователям по траблшутингу и поддержке систем.
  • Средства мониторинга.
    • Если база данных с событиями неожиданно выключается, то в консоли Horizon Administrator есть средства аудита, которые позволяют понять, какие события произошли до и после выключения базы данных.
  • Мгновенные клоны (Instant Clones).
    • Теперь можно создавать пулы десктопов типа dedicated instant clone, то есть с выделенными пользователям десктопами.
    • Поддержка ОС Windows Server для мгновенных клонов. Список поддерживаемых систем приведен в KB 2150295.
    • Можно выполнять операции копирования и вставки в поле AD container и дереве AD, когда вы создаете пул instant clone.
    • Если в папках internal folders, созданных в vSphere Web Client, больше нет ВМ - их можно удалить.
    • Можно использовать утилиту IcUnprotect.cmd для связанных клонов, чтобы разблокировать или удалить шаблон, реплику ВМ, родительские ВМ или папки с хостов vSphere.
    • Теперь мгновенные клоны совместимы с технологией Storage DRS (sDRS). То есть они могут быть на датасторах, которые являются частью кластера sDRS.
  • Архитектура Cloud Pod.
    • Максимум total session limit увеличен до 140 000.
    • Размер сайта (site limit) увеличен до 7.
    • Теперь можно настраивать пункты Windows Start menu для глобального назначения прав. Теперь когда пользователь соединяется с Connection Server, который является частью pod federation, Horizon Client for Windows помещает нужные ярлыки меню Пуск на клиентском устройстве пользователя.
  • Опубликованные десктопы (Published Desktops) и пулы приложений (Application Pools).
    • Теперь можно запрещать доступ к пулам десктопов, пулам приложений, глобальным назначениям прав на десктопы и приложения для определенных клиентских компьютеров.
    • Теперь можно настраивать пункты Windows Start menu для пулов десктопов и приложений. Теперь когда пользователь соединяется с Connection Server, Horizon Client for Windows помещает нужные ярлыки меню Пуск на клиентском устройстве пользователя.

  • Виртуальные десктопы и пулы.
    • Протокол Blast Extreme позволяет не терять соединение при кратковременном отсутствии связи для Windows-клиентов.
    • Обновляемые счетчики производительности PerfMon на Windows-агентах для сессий Blast предоставляют информацию об аудио, CDR, USB и устройствах виртуальной печати.
  • Программа Customer Experience Improvement Program.
    • Безопасность.
      • С помощью USB over Session Enhancement SDK теперь не нужно открывать TCP-порт 32111 для трафика USB в DMZ, где находится Security Server. Эта фича поддерживается как для виртуальных десктопов, так и для опубликованных (RDS).
    • Поддержка баз данных.
      • Возможность Always On Availability Groups для Microsoft SQL Server 2014 теперь полностью поддерживается в релизе Horizon 7.3.

    2. Агенты Horizon Agent for Linux

    Здесь произошли следующие улучшения:
    • Соединения на базе UDP для протокола Blast Extreme.
      Протокол UDP включен по умолчанию для клиента и агента. Помните, что TCP будет иметь лучшую производительность в LAN, но UDP будет работать лучше в WAN. Таким образом, в LAN нужно будет отключить приоритет работы по UDP.
    • Поддержка KDE.
      Поддержка KDE доступна для CentOS 7, RHEL 7, Ubuntu 14.04, Ubuntu 16.04 и SLED 11 SP4.
    • Поддержка MATE.
      Она доступна для виртуальных машин Ubuntu 14.04 и 16.04.
    • Аппаратный кодек H.264.
      Теперь он доступен для технологии vGPU с видеокартами NVIDIA, на которых используется драйвер серии 384 или более поздний.
    • Поддержка новых платформ.
      Теперь в качестве платформы для развертывания виртуальных ПК поддерживаются ОС RHEL 7.4 x64 и CentOS 7.4 x64.

    3. Агенты Horizon Agent.

    • Функция HTML5 Multimedia Redirection.
      Теперь можно установить фичу HTML5 Multimedia Redirection, выбрав соответствующий пункт в установщике Horizon Agent. В этом случае, если пользователь пользуется браузером Chrome, то мультимедийный контент HTML5 будет передаваться от виртуального декстопа к клиентской машине, снижая нагрузку на хост ESXi. Это позволяет пользователю получать лучшую производительность аудио и видеоконтента.
    • Поддержка SHA-256.
      Агент Horizon Agent теперь поддерживает алгоритм шифрования SHA-256. Также он поддерживается со стороны Horizon Client 4.6, а также Horizon 7 версии 7.2 и более поздней.
    • Улучшенные функции USB redirection в продукте User Environment Manager.
      • В User Environment Manager был увеличен таймаут, что позволяет убедиться в том, что при долгом логине умная политика USB redirection smart policy будет применена.
      • Теперь можно отключить контроль User Environment Manager над функцией USB redirection путем установки ключа реестра в клиентской машине.

    4. Horizon GPO Bundle.

    • Файл шаблона VMware Horizon Printer Redirection ADMX.
      Новый файл vdm_agent_printing.admx содержит настройки политик фильтрации перенаправляемых принтеров.
    • Настройка групповой политики "Enable VMware HTML5 Multimedia Redirection".
      Файл шаблона VMware View Agent Configuration ADMX - vdm_agent.admx - позволяет включить возможность HTML5 Multimedia redirection.
    • Настройка групповой политики "Enable URL list for VMware HTML5 Multimedia Redirection".
      Файл шаблона VMware View Agent Configuration ADMX - vdm_agent.admx - позволяет указать, для каких сайтов перенаправлять контент HTML5.
    • Настройка групповой политики "Enforces Wallpaper Setting from GPO".
      Файл шаблона VMware View Agent Configuration ADMX - ViewPM.admx - позволяет установить обои рабочего стола в соответствии с настройками групповой политики AD.

    В следующем посте мы расскажем о новых возможностях клиентов VMware View Horizon 7.3.

    Скачать VMware Horizon 7.3 можно прямо сейчас по этой ссылке.


    Таги: VMware, Horizon, Update, View, VDI, Enterprise

    Что нового будет в Virtual Volumes (VVols) в следующей версии VMware vSphere?


    На прошедшей конференции VMworld 2017 в рамках сессии "VMware Virtual Volumes Technical Deep Dive" компания VMware рассказала о технических аспектах технологии VVols, а также возможностях, которые появятся в следующей версии платформы виртуализации VMware vSphere:

    Самый интересный слайд показывают в конце презентации:

    Во-первых, надо отметить, что следующая версия vSphere будет иметь номер 6.7, а, во-вторых, давайте посмотрим на три фичи, которые появятся в VVols, подетальнее:

    • Support for Microsoft Cluster Server (MSCS) – это была одна из причин, по которой администраторы до сих пор используют RDM, а этот вариант использования не поддерживается со стороны VVols. Данная поддержка позволит расширить сферу использования технологии.
    • Performance parity with VMFS – в данном случае цель VMware - обеспечить высокую производительность VVols, поскольку сейчас есть промежуточный компонент Protocol Endpoint, который замедляет работу подсистемы ввода-вывода. Также будут оптимизированы такие операции как bind, соединения VASA, а также обработка метаданных томов VVols. Кстати, в целом-то VVols должна работать даже побыстрее, чем VMFS.
    • IPv6 support – платформа vSphere уже давно поддерживает IPv6, а сами VVols будут поддерживать IPv6 на уровне службы VASA Provider.

    Поддержка NFS 4.1 и операций BIND/UNBIND/REBIND. Сейчас они делаются через VASA provider, которые идут через control path, поэтому медленные, а будут работать через Protocol Endpoint (то есть data path, что быстрее).

    Будем следить за новостями о новых возможностях VMware vSphere 6.7.


    Таги: VMware, vSphere, VVols, Storage, Update

    Как создавать и удалять SDRS Anti-Affinity правила с PowerCLI – Часть 2.


    Это Часть 2 в серии о Storage DRS. Часть 1 «Как конфигурировать Storage DRS кластеры с PowerCLI – Часть 1» находится здесь. Часть 3 «Как конфигурировать SDRS Anti-Affinity правила с PowerCLI – Часть 3» и может быть даже Часть 4 «Как просмотреть историю операций SDRS кластеров с PowerCLI – Часть 4» ожидаются в ближайшем будущем. Следите за новыми публикациями! Эта статья расскажет о 4 новых функциях...


    Таги: VMware, PowerCLI, DRS, vSphere

    Новая жизнь снапшотов и сессия "Tech Preview of Integrated Data Protection for vSAN" на VMworld 2017.


    На конференции VMworld 2017 компания VMware представила интересную сессию "Tech Preview of Integrated Data Protection for vSAN", где рассказывалось о новых уровнях защиты данных в кластерах VMware vSAN.

    Сейчас защита кластера обеспечивается за счет избыточности дисковых объектов, которые размещены на разных хостах, и, в зависимости от степени дублирования эти объектов (политика failures to tolerate), кластер vSAN переживает отказы некоторого количества хостов ESXi в случае сбоя. Но сбои бывают и другого характера: например, повреждение данных, которое будет отреплицировано на все дисковые объекты.

    Поэтому на VMworld было рассказано о Integrated Data Protection - технологии, которая защищает данные во времени и позволяет обеспечить исполнение политик RPO (recovery point objective). Работает она за счет создания снапшотов виртуальных машин - локально или удаленно.

    Во-первых, по умолчанию снапшоты будут храниться локально (local protection). VMware ставит перед собой цель сделать так, чтобы до 100 снапшотов одной виртуальной машины не сильно влияли на ее производительность. Сейчас если создать столько снапшотов - виртуальная машина у вас сразу же загнется.

    Во-вторых, работать все это будет на уровне политики хранения механизма storage policy based management (SPBM), в рамках которой можно будет задать и откидывание снапшотов в удаленные локации, например, NFS-шары, Data Domain или облако Amazon S3 (remote protection).

    К примеру, вы можете использовать локальную защиту данных снапшотами до 4 часов, а по прошествии этого времени откидывать их в облако.

    Ну и, в-третьих, все это будет поддерживать последние нововведения механизма VSS, чтобы создавать консистентные снапшоты уровня приложений.

    При восстановлении ВМ из снапшота можно будет выбрать одну из контрольных точек во времени, а саму ВМ можно восстановить в изолированном сетевом окружении (например, чтобы проверить ее работоспособность перед вводом в продакшен).

    VMware обещает сделать Integrated Data Protection в ближайших версиях VMware vSAN, будем смотреть за анонсами VMworld Europe 2017 в ближайшие дни.


    Таги: VMware, vSAN, Data Protection

    VMware VMworld Europe 2017


    The VMworld Conference, Barcelona, organized by the VMware, Inc will take place from 11th Sep to the 14th Sep 2017 at the Fira Barcelona Gran Via in Barcelona, Spain. The conference will discuss how the software-defined data center is extending the proven model of virtualization across storage, networking and security.
    Таги:

    Очередные обновления VMware vSphere Client 3.21 - новые возможности.


    За прошедшие три недели, во время конференции VMworld 2017 и сразу после нее, компания VMware выпустила обновления своего HTML5-клиента для управления виртуальной инфраструктурой - vSphere Client 3.21 и 3.20. Напомним, что о версии vSphere Client 3.19 мы писали вот тут.

    Давайте посмотрим, что нового появилось в последних двух обновлениях клиента, который скоро станет основным средством управления виртуальной инфраструктурой:

    • Создание и редактирование спецификаций кастомизации ВМ с кастомными сетевыми настройками.
    • Редактирование и клонирование компонента Storage Policy.
    • Установки возможностей хранилищ (Datastore > Configure > Capability sets).
    • Создание, редактирование и удаление групп Link Aggregation на распределенных виртуальных коммутаторах.
    • Просмотр установленных I/O Filters для хостов и кластеров.
    • Создание и конфигурирование сетевых пулов ресурсов для механизма Network I/O Control v3.
    • Запрос подтверждения при логауте во время закачки/скачки файла с датастора.
    • Новый фильтр в диалоговом окне VM Settings > Network Adapter > Browse.
    • Возможность включения/отключения IPv6 на хостах ESXi.
    • Информация о назначенных Shares доступна в представлениях Resource Allocation для кластеров и пулов ресурсов.
    • Если ESXi находятся под управлением vCenter 6.5, то для сенсоров оборудования показываются временные метки, когда были получены их статусы.

    Загрузить VMware vSphere Client 3.21 можно по этой ссылке.


    Таги: VMware, Client, Update, vSphere

    Переделка "толстых" файлов подкачки виртуальных машин в кластере VMware vSAN на "тонкие".


    Некоторые из вас знают, что, начиная с версии vSAN 6.2, стало возможно создание "тонких" (thin) файлов подкачки. В более ранних версиях vSAN было возможно создавать только reserved своп-файлы, что требовало довольно больших объемов дисковой памяти. То есть, если у машины 16 ГБ оперативной памяти, то в два раза больше будет занято и на диске под своп (32 ГБ), так как при FTT=1 (failures to tolerate) дисковые объекты дублируются в рамках кластера.

    Поэтому для сред, в которых достаточно памяти у хостов, и отсутствует Memory Overcommitment, сделали параметр в настройках кластера SwapThickProvisionDisabled, позволяющий виртуальным машинам создавать тонкие файлы подкачки.

    Чтобы выставить эту настройку, есть специальный скрипт PowerCLI, который применяет ее ко всем хостам ESXi кластера vSAN.

    Однако выставить настройку недостаточно - ведь, чтобы файлы подкачки стали тонкими, то есть пересоздались, надо перезагрузить (выключить и включить) виртуальные машины с толстыми swap-файлами. Найти такие машины позволит вот этот Python-сценарий. Ну а дальше уже перезагрузите машины по списку - это позволит вам сэкономить значительный объем дискового пространства кластера.


    Таги: VMware, vSAN, Storage, ESXi, VMachines

    Обновился портал WhatMatrix - теперь еще больше сравнений в сфере виртуализации, облачных продуктов и хранения данных.


    Некоторое время мы писали о портале WhatMatrix, где можно посмотреть относительно свежие сравнения платформ виртуализации, а также некоторых других технологий и решений. Хотим напомнить об этом интересном средстве, особенно в контексте последних изменений - на сайте было добавлено много новых категорий сравнений, а скоро будет добавлено еще больше (не только глобальные продукты, но и нишевые решения):

    Сравнения представлены в различных категориях:

    • Application Delivery Controllers - это так называемые контроллеры доставки приложений, то есть ПО, которое оптимизирует трафик на входящем/исходящем канале на уровне датацентра, балансирует нагрузку и выполняет прочие служебные задачи.
    • DR for Virtual Environments - это решения для обеспечения катастрофоустойчивости виртуальных машин и сервисов на уровне датацентра.
    • Cloud Management Platforms - это решения для управления онпремизной и публичной облачной инфраструктурой.
    • SDS and HCI - различные решения для хранения данных в виртуальной среде и гиперконвергентные платформы управления виртуальной инфраструктурой.
    • Virtualization - это, собственно, платформы виртуализации, наиболее интересная часть.
    • Cloud Storage Gateways - средства транислирования облачных API-запросов к хранилищам на блочный уровень.
    • UDM (Unified Device Management) - комплексные решения для управления пользовательскими устройствами.
    • Backups for Virtual Environments - средства резервного копирования виртуальных машин.

    В ближайшем будущем также появится сравнение публичных облаков (Public Cloud Comparison), что для многих суперактуальная штука сегодня:

    Разработчики портала утверждают, что в ближайшее время также будет добавлено около 170 значительных изменений, что превратит ресурс в главный источник знаний о различиях в корпоративном софте для датацентров. Будет даже добавлен обзор Blockchain-решений. Также обещают кастомизацию сравнений и результатов под конкретные требования пользователя, чтобы не ставить его перед выбором, какие продукты подставлять в сравнения и как между собой сравнивать их результаты.

    Интересно, что для некоторой справедливости, при каждой загрузке страницы вендоры и их продукты в колонки для сравнения подставляются случайным образом (в рамках выбранной категории, есественно).

    В общем, заходите на WhatMatrix.com и решайте сами - адекватно там все или нет.


    Таги: VMware, Comparison, VMachines, Blogs, Enterprise

    Как конфигурировать Storage DRS кластеры с PowerCLI – Часть 1.


    Несмотря на растущую популярность технологии VMware vSAN, большинство крупных предприятий по-прежнему частично или полностью продолжают работать с общими хранилищами (shared storage). Есть достаточно PowerCLI командлетов для конфигурирования большинства аспектов HA/DRS кластеров, однако для SDRS кластеров выбор не велик.


    Таги: VMware, PowerCLI, SDRS, Storage

    Вышла новая версия VMware vSphere Client 3.19 - много новых возможностей.


    Компания VMware выпустила большое обновление своего средства для управления виртуальной инфраструктурой, доступное на VMware Labs. На днях вышел веб-клиент VMware vSphere Client 3.19. Напомним, что он построен на базе технологии HTML5 и работает намного быстрее своего предшественника vSphere Web Client. Пару недель назад мы писали о версии 3.18, а уже подоспело большое обновление. Видимо, это к предстоящему VMworld 2017.

    Итак, новые возможности vSphere Client 3.19:

    • Добавление хостового и клиентского USB-устройства к виртуальной машине.
    • Добавление USB-контроллера.
    • Действие по добавлению лицензии на сервер vCenter, кластер или хост.
    • Редактирование и клонирование политики хранилищ (VM Storage Policy), а также для отдельных ВМ (Actions > VM Policies > Edit VM Storage Policies).
    • Компонентное представление политики хранилищ. Создание и удаление компонентов.
    • Представление Related VM Templates для политики хранилищ.
    • Монтирование датасторов VVol.
    • Новый портлет VVOL Capability Profiles Capacity.
    • Создание и изменение спецификаций кастомизации ВМ (пока без кастомных конфигураций сетевого взаимодействия)
    • Конфигурация для отдельных дисков при клонировании ВМ или шаблона на странице Select storage.
    • Списки хостов могут быть отсортированы по потреблению CPU и памяти.
    • Мониторинг использования памяти DRS для кластеров, позволяющий переключаться между графиками active и consumed memory.
    • Обновленный интерфейс в мастере миграции, в части диалога compatibility issues - возможность отсортировать список по ВМ, хостам или самой проблеме совместимости.

    Как мы видим, VMware наращивает темп по приближению к функциональности старого средства управления vSphere Web Client (их отличия приведены вот тут). Скачать VMware vSphere Client 3.19 можно с VMware Labs по этой ссылке.


    Таги: VMware, vSphere, Client, Update

    Пара интересных новых документов о VMware vSAN 6.6.1.


    На сайте документации VMware, касающейся хранилищ - storagehub.vmware.com, появилось два интересных документа, посвященных последней версии продукта для создания отказоустойчивых кластеров VMware vSAN 6.6.1.

    Первый - vSAN 6.6.1 Upgrade Considerations, он рассказывает о том, как нужно проводить апгрейд на vSAN 6.6.1 с предыдущих версий. Основные разделы документа посвящены вопросам состава операций и последовательности апгрейда хранилищ, подготовке сетевой инфраструктуры, а также шагам процесса обновления версии vSAN.

    Второй документ - "VMware vSAN Design and Sizing Guide". Это уже более серьезный док, где на 73 страницах рассказывается о том, как нужно строить архитектуру решения, а также планировать под нее необходимые емкости хранилищ.

    Здесь содержимое документа посвящено, главным образом, планированию будущей архитектуры решения, получению сбалансированных конфигураций и обеспечению правильного жизненного цикла эксплуатации продукта. Также там рассматриваются вопросы касательно технических лимитов инфраструктуры vSAN и построения правильной сетевой инфраструктуры.


    Таги: VMware, vSAN, Whitepaper

    VMware PowerCLI 6.5.1 и 6.5.2 - что нового по сравнению с осенним релизом 6.5.


    Где-то во время релиза обновленной версии платформы VMware vSphere 6.5 компания VMware выпустила и новую версию фреймворка PowerCLI 6.5, в котором было много новых возможностей, особенно касающихся управления кластером vSAN.

    На днях же вышла версия PowerCLI 6.5.2 (сразу же после релиза vSphere 6.5 Update 1), посмотрим что там появилось нового, а также заодно упомянем новые фичи прошлого апдейта - PowerCLI 6.5.1 (он вышел 3 месяца назад).

    Напомним также, что теперь PowerCLI можно устанавливать и обновлять через портал Microsoft PowerShell Gallery всего одной командой:

    Итак, посмотрим что нового в PowerCLI 6.5.2:

    1. Параметр InventoryLocation.

    Если раньше при перемещении ВМ использовался параметр Destination, который принимал тип folder, ESXi-хост, кластер или ресурс-пул (но только одно из вышеперечисленного), то теперь можно использовать параметр InventoryLocation для задания непосредственного конечного положения ВМ. Это упрощает перемещение ВМ, например, между серверами vCenter:

    2. Можно использовать ISO из Content Library.

    Теперь командлет New-CDDrive имеет параметр ContentLibraryIso, который можно использовать для указания ISO-образа в библиотеке.

    3. Обновления экспериментальных фичей:

    • Set-HardDisk -ZeroOut. Этот параметр можно использовать для заполнения диска нулями при прямом обращении к хосту ESXi.
    • New-HardDisk -AdvancedSetting. Этот параметр используется для ассоциации правил Storage Distributed Resource Scheduler (SDRS).
    • New-VM -AdvancedSetting. Аналогично предыдущему пункту - нужен для правил SDRS.
    • Install-VMHostPatch. Весь этот командлет пока экспериментальный.

    А вот что нового было в PowerCLI 6.5.1:

    1. Автозагрузка модулей PowerShell.

    Теперь после логина и выполнения запроса к командлету автоматически подгружаются все необходимые модули. Например, вот что происходит после выполнения Connect-VIServer (обратите внимание на состав модулей):

    2. Новые и обновленные командлеты для групп кластеров DRS и правил VM/Host.

    Следующие командлеты были добавлены:

    • Get-DRSClusterGroup
    • New-DRSClusterGroup
    • Set-DRSClusterGroup
    • Remove-DRSClusterGroup
    • Get-DRSVMHostRule
    • New-DRSVMHostRule
    • Set-DRSVMHostRule
    • Remove-DRSVMHostRule

    3. Новый модуль VMware.VimAutomation.Srm для управления SRM.

    Теперь он вынесен из основного модуля в отдельный.

    4. Обновления API.

    Для работы с внешними продуктами были очень существенно обновлены модули vR Ops (vRealize Operations) и Horizon (для работы с Horizon View 7.1 API).

    5. Новые командлеты для iSCSI vSAN.

    Здесь появились следующие командлеты для управления инициаторами и таргетами iSCSI:

    • Get-VsanIscsiInitiatorGroup
    • New-VsanIscsiInitiatorGroup
    • Set-VsanIscsiInitiatorGroup
    • Remove-VsanIscsiInitiatorGroup
    • Get-VsanIscsiTarget
    • New-VsanIscsiTarget
    • Set-VsanIscsiTarget
    • Remove-VsanIscsiTarget
    • Get-VsanIscsiInitiatorGroupTargetAssociation
    • New-VsanIscsiInitiatorGroupTargetAssociation
    • Remove-VsanIscsiInitiatorGroupTargetAssociation
    • Get-VsanIscsiLun
    • New-VsanIscsiLun
    • Set-VsanIscsiLun
    • Remove-VsanIscsiLun
    • Get-VsanStat
    • Start-VsanDiskFormatUpdate
    • Get-VSANView

    Также модуль Storage получил новые командлеты для механизма storage policy based management (SPBM):

    • Start-SpbmReplicationPromote
    • Start-SpbmReplicationTestFailover
    • Stop-SpbmReplicationTestFailover

    Более подробно обо всем этом написано в VMware PowerCLI 6.5.2 Cmdlet Reference. Загрузить vSphere PowerCLI 6.5.2 и получить подробную информацию о новых фичах по релизам можно на этой странице.


    Таги: VMware, PowerCLI, Update, PowerShell, vSphere

    Новые возможности VMware vSAN 6.6.1 - да, их немало.


    Недавно мы писали о выходе первого пакета обновления платформы VMware vSphere 6.5 Update 1, в рамках которого также было выпущено еще несколько апдейтов продуктовой линейки VMware, в том числе обновление решения для создания отказоустойчивых кластеров хранилищ vSAN 6.6.1.

    Основная новая функция vSAN, о которой мы уже писали - это возможность использования vSphere Update Manager для обновления кластеров vSAN 6.6.1. О ней хорошо рассказывается в следующем видео:

    Между тем, в vSAN 6.6.1 появилось еще несколько интересных фич, которые обычно присущи среднему (а не минорному) обновлению:

    1. Раздел vSAN Performance Diagnostics.

    Теперь на вкладке vSAN в Web Client появился пункт Performance Diagnostics, в котором можно запускать различные бенчмарки и сравнивать полученные результаты с предыдущими их выполнениями:

    Кроме того, по результатам исполнения бенчмарков будут выданы рекомендации по увеличению производительности кластера хранилищ, такие как увеличение размера дисковой группы, добавление новых дисковых групп или изменение числа виртуальных машин.

    Тест проводится около 1 часа, после чего делается вывод о том, достигнуты ли значения параметров maximum IOPS, maximum throughtput и minimum latency. Если нет - то будут выписаны рекомендации.

    Для работы этой возможности необходимо, чтобы были включены фичи Customer Experience Improvement Program (CEIP) и vSAN Performance Service.

    2. Поддержка Config Generation.

    С переходом vSAN 6.6 на юникастовую коммуникацию с vCenter, последний воспринимается как единственный источник доверительной конфигурации. Однако, если vCenter становился недоступным, а конфигурация кластера менялась, то при возобновлении доступности vCenter конфигурация откатывалась к прежней. Теперь же есть параметр Config Generation, содержащих GUID и время последних изменений конфига.

    3. Хэлсчеки для VUM.

    Так как vSAN теперь обновляется через VMware Update Manager (VUM), то в разделе Health появились новые проверки состояний:

    4. Поддержка миганий индикаторов для HP Gen9.

    Теперь vSAN 6.6.1 может заставлять мигать LED-индикаторы на серверах HP Gen9 на выбранных устройствах, что позволяет упростить идентификацию отдельных дисков в очень больших окружениях.

    Эта фича работает как в режиме RAID, так и в режиме pass-through.

    Загрузить VMware vSAN 6.6.1 можно по этой ссылке. Release Notes доступны тут. А вот тут можно скачать документ с описаниями новых возможностей.


    Таги: VMware, vSAN, Update

    Репликация назначения прав для инфраструктуры VMware Horizon 7 и App Volumes.


    В последнее время от продуктовой команды VMware Horizon идет много новостей. Мы уже писали о документах "VMware Horizon Apps Performance Reference Architecture" и "Best Practices for Published Applications and Desktops in VMware Horizon Apps and VMware Horizon 7", а также о том, что VMware Horizon Cloud будет скоро доступен на платформе Microsoft Azure.

    На днях пришла еще одна интересная новость - вышел документ "VMware Horizon 7 Enterprise Edition Multi-Site Reference Architecture", в котором рассказывает о том, как строить архитектуру решения Horizon 7 для нескольких площадок в целях отказо- и катастрофоустойчивости.

    Как один из вариантов резервирования инфраструктуры App Volumes там рассматривается поддержание резервной инфраструктуры серверов App Volumes Managers и баз данных SQL Server на каждой площадке (их может быть не только две, но и больше):

    Но проблема в том, что права доступа пользователей (Entitlements) в этом случае не синхронизированы (они хранятся на SQL Server), что повлечет за собой проблемы доступа при переключении на резервную площадку.

    Для решения этой проблемы коллеги написали PowerShell-скрипт, который позволяет синхронизировать назначения прав (Entitlements) на основной и резервной площадках. При этом данный скрипт не реплицирует данные AppStacks, которые можно перенести обычным копированием, либо автоматизировать этот процесс за счет настройки Storage Groups, как это описано в документе "App Volumes Deployment Considerations".

    Сначала проверьте работоспособность данного сценария, а потом уже можно добавить его, например, в планировщик Windows.


    Таги: VMware, App Volumes, DR, Horizon, PowerShell

    Улучшения производительности VMware vSAN 6.6 по сравнению с 6.5.


    Весной этого года вышло обновление решения для создания отказоустойчивых кластеров для виртуальных машин на платформе vSphere - VMware vSAN 6.6. Прошлая версия продукта Virtual SAN 6.5 вышла еще осенью 2016 года, и vSAN 6.6 заметно продвинулся в плане функционала. Но, оказывается, это решение стало еще и существенно лучше в плане производительности. И на эту тему есть полезный документ "vSAN 6.6 Performance Improvements", описывающий результаты тестирования обеих версий продукта.

    Для тестов использовалось одинаковое оборудование (кластер All-Flash) и 3 типа симуляции рабочей нагрузки:

    • Random Read
    • Random Write
    • Mixed random Read/Write (70/30%)

    Посмотрим на графики, показывающие улучшения в различных аспектах:

    Большое рабочее множество данных (Large Working Set)

    Это самый нагрузочный вариант использования системы хранения, когда на нее идут длинные и непрерывные операции записи, иногда перемежающиеся операциями чтения.

    Так выглядит суммаризованный график улучшения по числу IOPS для трех типов нагрузок и различных уровнях RAID:

    Вот так выглядит уменьшение задержек при обращении к дискам (Latency). Чем ниже столбик - тем сильнее уменьшилась задержка:

    Так выглядит отдельный график по IOPS для типа нагрузки 70% чтения и 30% записи:

    Так выглядит Latency для этого типа нагрузки:

    IOPS для Random Writes:

    Latency для Random Writes:

    Малое рабочее множество данных (Small Working Set)

    Этот вариант использования хранилища меньше зависит от аппаратных особенностей и больше способен показать улучшения, сделанные в программных компонентах. Несмотря на то, что он не встречается в чистом виде (как впрочем и Large Working Set), малые рабочие множества встречаются в среде, где работают много небольших задач одновременно, обращения которых к хранилищам перемешиваются в потоке ввода-вывода.

    Так выглядит суммаризованный график улучшения по числу IOPS для трех типов нагрузок и различных уровнях RAID (заметьте, что процент улучшений здесь значительно выше, чем для Large Working Set):

    Вот так выглядит уменьшение задержек при обращении к дискам (Latency). Чем ниже столбик - тем сильнее уменьшилась задержка (также улучшения более существенны, чем для Large Working Set):

    Так выглядит отдельный график по IOPS для типа нагрузки 70% чтения и 30% записи:

    Так выглядит Latency для этого типа нагрузки:

    IOPS для Random Writes:

    Latency для Random Writes:

    В целом, мы видим, что по всем параметрам и для всех аспектов (рабочее множество, тип нагрузки, уровень RAID) решение vSAN 6.6 обходит своего предшественника (а в некоторых случаях - весьма существенно).


    Таги: VMware, vSAN, Performance, Storage

    Вышла новая версия клиента VMware vSphere Client 3.17.


    На днях компания VMware выпустила очередное обновление главного клиента для управления виртуальной инфраструктурой - VMware vSphere Client 3.17. Напомним, что этот клиент на базе технологии HTML5 скоро заменит собой устаревший vSphere Web Client. О прошлой версии vSphere Client 3.16, которая вышла пару недель назад, мы писали вот тут.

    Давайте взглянем на новые возможности VMware vSphere Client 3.17:

    • Функции создания новой политики хранения ВМ (VM Storage Policy). Пока в рамках данной версии клиента можно делать следующие вещи:
      • Миграция Host Networking на распределенный коммуатор Distributed Switch.
      • Настроить адрес шлюза на адаптерах VMkernel (только в ESXi 6.5).
      • Поддержка механизма управления трафиком Network I/O Control v3.
      • Настройки опций аппаратного обеспечения при клонировании ВМ или развертывании ее из шаблона.
      • Создание политик хранения для томов VVol.
    • Также были сделаны следующие улучшения:
      • Оповещение при изменении настроек ВМ или операциях со снапшотами, что машина управляется данным клиентом.
      • Предупреждение, если свободного места на датасторе осталось меньше, чем размер файла, который пользователь пытается залить на датастор.

    Скачать тонкий клиент VMware vSphere Client 3.17 можно по этой ссылке.


    Таги: VMware, vSphere, Client, Update, Labs

    Новый документ "VMware Horizon Apps Performance Reference Architecture".


    Не так давно мы писали про документ "RDSH Session Load-Balancing in Horizon 6 and Horizon 7", в котором рассматриваются вопросы балансировки нагрузки на ферму серверов RDSH, в рамках которой работают терминальные приложения и сессии пользователей.

    Ну а на днях VMware выпустила на тему RDSH не менее интересный документ "VMware Horizon Apps Performance Reference Architecture", раскрывающий вопросы производительности большой инфраструктуры доставки приложений и терминальных сессий.

    Для тестов была взята некая референсная архитектура решения, работающая на базе технологии App Volumes с пулами наиболее используемых приложений, и рассмотрены различные варианты отработки виртуальной инфраструктурой нагрузок в гостевых системах. Сами виртуальные десктопы создавались посредством технологии Instant Clone.

    Вот такая архитектура рассматривалась при тестировании:

    А так были распределены рабочие нагрузки по хост-серверам VMware ESXi:

    Результаты рассматривали в пяти аспектах:

    1. Производительность работы пользователей (User-Experience Performance Results).

    Время отклика при росте количества одновременных сессий всегда находилось в норме и росло линейно:

    2. Пиковые нагрузке при массовой загрузке десктопов (Boot Storms).

    Хосты отрабатывали нагрузки Boot Storms на 70% загрузках мощности, после чего нормализовывали текущий уровень:

    3. Производительность работы хост-серверов (Host Performance Results).

    Хосты RDSH отрабатывали хорошо:

    А хосты обслуживания инфраструктуры vSphere и Horizon еще лучше:

    4. Производительность виртуальных машин (Virtual Machine Performance Results).

    Машины в среднем не были загружены по ресурсам в пике более чем на 50%:

    5. Производительность подсистемы хранения (Storage Performance Results).

    Виртуальные машины RDSH выдавали вполне приемлемые показатели производительности хранилищ:

    На самом деле, документ содержит десятки интересных графиков, таблиц и инсайтов. Очень рекомендуется к прочтению тем, кто планирует у себя развертывание инфраструктуры виртуализованных приложений и терминальных серверов RDSH.


    Таги: VMware, Horizon, Performance, RDSH, VDI, Whitepaper

    Обзор бесплатного продукта StarWind Manager для мониторинга кластеров Storage Spaces Direct и не только.


    Многие из вас знакомы с решением номер 1 на рынке для создания программных отказоустойчивых кластеров хранилищ StaWind Virtual SAN. За последнее время продукты компании сделали большой шаг вперед, в том числе в плане интерфейсов, и сегодня мы рассмотрим процесс установки и начала использования централизованного средства мониторинга кластеров Storage Spaces Direct - StarWind Manager. Это полностью бесплатный продукт и доступен сейчас в статусе Preview.


    Таги: StarWind, Manager, Storage, Microsoft, Spaces, S2D, Virtual SAN

    Вторая версия Microsoft Azure Backup Server (MABS) с поддержкой VMware vSphere 6.5 и Windows Server 2016.


    Возможно не все из вас знают, что у компании Microsoft есть продукт Microsoft Azure Backup Server (MABS), являющийся "облачным наследником" средства резервного копирования Microsoft Data Protection Manager (MABS построен на его базе).

    MABS предназначен для резервного копирования онпремизных и облачных нагрузок (IaaS) в виртуальных машинах, как на базе платформы Hyper-V и Microsoft Azure, так и на базе гипервизора VMware vSphere. Кроме того, MABS может бэкапить и физические системы с ПО Microsoft.

    MABS очень хорошо подходит для небольших компаний и филиалов, где нет средств и целесообразности разворачивать дорогостоящую инфраструктуру резервного копирования, а в то же время предприятию приходиться использовать облачную инфраструктуру Microsoft Azure. Интересно, что само средство бесплатно для развертывания, но платит компания на базе модели "instance size + storage consumed" при использовании MABS. То есть оплата происходит по мере использования продукта (Pay-as-you-go).

    MABS развертывается в инфраструктуре компании и позволяет делать резервные копии не только ВМ, но и приложений SQL Server, SharePoint и Exchange с поддержкой механизма VSS. Оперативное резервное копирование происходит в локальной инфраструктуре (чтобы бэкапы можно было быстро восстановить по LAN), а каждую ночь резервные копии отбрасываются еще и в облако Azure.

    Недавно Microsoft выпустила Azure Backup Server v2, в котором появилось несколько важных улучшений:

    • Поддержка Windows Server 2016 - теперь последняя версия ОС и гипервизора от Microsoft поддерживается для создания резервных копий ВМ. Также MABS можно ставить на Windows Server 2016. Помимо этого поддерживаются продукты SQL Server 2016, SharePoint Server 2016 и Exchange Server 2016.
    • Поддержка VMware vSphere 6.5 - можно бэкапить виртуальные машин с серверов ESXi 6.5. Также появилась возможность восстановления ВМ в альтернативное размещение.
    • Фича Auto Protection для папки гипервизора VMware vSphere - все ВМ, которые в нее будут добавлены, будут автоматически защищены, как в локальной инфраструктуре, так и в облаке.
    • Улучшения хранилищ - теперь поддерживаются фичи Microsoft DPM 2016, включая систему резервного копирования на основе формата VHDX. Появилась поддержка механизма клонирования блоков REFS для инкрементальных бэкапов. Теперь задачи РК выполняются до 70% быстрее, сами бэкапы потребляют на 30% меньше хранилища, а также появилась технология Resilient Change Tracking (RCT) для инкрементальных резервных копий.

    Для получения более подробной информации и загрузки Microsoft Azure Backup Server v2 сходите по этой ссылке. Документация по продукту доступна тут.


    Таги: Microsoft, Azure, Backup

    VMware vSphere VMkernel Observations (VOBs) - как создавать кастомные алармы для различных событий (alarms).


    В VMware vSphere есть механизм для создания и анализа кастомных алармов - VMkernel Observations (VOBs). VOB'ы - это системные события, которые можно использовать для пользовательских алармов в целях отладки различных аспектов виртуальной инфраструктуры (сетевого взаимодействия, кластеров vSAN, производительности и т.п.).

    Чтобы добавить такой аларм, нужно знать его уникальный идентификатор (ID), ассоциированный с конкретным типом события. Эти события и их ID можно посмотреть в следующем файле на хосте ESXi:

    /usr/lib/vmware/hostd/extensions/hostdiag/locale/en/event.vmsg

    Если же такой аларм срабатывает, то он записывается в следующий лог-файл:

    /var/log/vobd.log

    Для того, чтобы создать кастомный аларм на основе VOB, нужно при создании нового аларма выбрать пункт "specific event occuring on this object":

    И далее добавить соответствующий идентификатор, например, такой:

    esx.problem.vob.vsan.pdl.offline

    Событий, для которых можно создать кастомные алармы, очень много. Вот некоторые из них:

    VOB ID VOB Description
    esx.audit.vsan.clustering.enabled VSAN clustering services have been enabled.
    esx.clear.vob.vsan.pdl.online VSAN device has come online.
    esx.clear.vsan.clustering.enabled VSAN clustering services have now been enabled.
    esx.clear.vsan.vsan.network.available VSAN now has at least one active network configuration.
    esx.clear.vsan.vsan.vmknic.ready A previously reported vmknic now has a valid IP.
    esx.problem.vob.vsan.lsom.componentthreshold VSAN Node: Near node component count limit.
    esx.problem.vob.vsan.lsom.diskerror VSAN device is under permanent error.
    esx.problem.vob.vsan.lsom.diskgrouplimit Failed to create a new disk group.
    esx.problem.vob.vsan.lsom.disklimit Failed to add disk to disk group.
    esx.problem.vob.vsan.pdl.offline VSAN device has gone offline.
    esx.problem.vsan.clustering.disabled VSAN clustering services have been disabled.
    esx.problem.vsan.lsom.congestionthreshold VSAN device Memory/SSD congestion has changed.
    esx.problem.vsan.net.not.ready A vmknic added to VSAN network configuration doesn't have valid IP. Network is not ready.
    esx.problem.vsan.net.redundancy.lost VSAN doesn't haven any redundancy in its network configuration.
    esx.problem.vsan.net.redundancy.reduced VSAN is operating on reduced network redundancy.
    esx.problem.vsan.no.network.connectivity VSAN doesn't have any networking configuration for use.
    esx.problem.vsan.vmknic.not.ready A vmknic added to VSAN network configuration doesn't have valid IP. It will not be in use.
    ad.event.ImportCertEvent Import certificate success
    ad.event.ImportCertFailedEvent Import certificate failure
    ad.event.JoinDomainEvent Join domain success
    ad.event.JoinDomainFailedEvent Join domain failure
    ad.event.LeaveDomainEvent Leave domain success
    ad.event.LeaveDomainFailedEvent Leave domain failure
    com.vmware.vc.HA.CreateConfigVvolFailedEvent vSphere HA failed to create a configuration vVol for this datastore and so will not be able to protect virtual machines on the datastore until the problem is resolved. Error: {fault}
    com.vmware.vc.HA.CreateConfigVvolSucceededEvent vSphere HA successfully created a configuration vVol after the previous failure
    com.vmware.vc.HA.DasHostCompleteDatastoreFailureEvent Host complete datastore failure
    com.vmware.vc.HA.DasHostCompleteNetworkFailureEvent Host complete network failure
    com.vmware.vc.VmCloneFailedInvalidDestinationEvent Cannot complete virtual machine clone.
    com.vmware.vc.VmCloneToResourcePoolFailedEvent Cannot complete virtual machine clone.
    com.vmware.vc.VmDiskConsolidatedEvent Virtual machine disks consolidation succeeded.
    com.vmware.vc.VmDiskConsolidationNeeded Virtual machine disks consolidation needed.
    com.vmware.vc.VmDiskConsolidationNoLongerNeeded Virtual machine disks consolidation no longer needed.
    com.vmware.vc.VmDiskFailedToConsolidateEvent Virtual machine disks consolidation failed.
    com.vmware.vc.datastore.UpdateVmFilesFailedEvent Failed to update VM files
    com.vmware.vc.datastore.UpdatedVmFilesEvent Updated VM files
    com.vmware.vc.datastore.UpdatingVmFilesEvent Updating VM Files
    com.vmware.vc.ft.VmAffectedByDasDisabledEvent Fault Tolerance VM restart disabled
    com.vmware.vc.guestOperations.GuestOperation Guest operation
    com.vmware.vc.guestOperations.GuestOperationAuthFailure Guest operation authentication failure
    com.vmware.vc.host.clear.vFlashResource.inaccessible Host's virtual flash resource is accessible.
    com.vmware.vc.host.clear.vFlashResource.reachthreshold Host's virtual flash resource usage dropped below the threshold.
    com.vmware.vc.host.problem.vFlashResource.inaccessible Host's virtual flash resource is inaccessible.
    com.vmware.vc.host.problem.vFlashResource.reachthreshold Host's virtual flash resource usage exceeds the threshold.
    com.vmware.vc.host.vFlash.VFlashResourceCapacityExtendedEvent Virtual flash resource capacity is extended
    com.vmware.vc.host.vFlash.VFlashResourceConfiguredEvent Virtual flash resource is configured on the host
    com.vmware.vc.host.vFlash.VFlashResourceRemovedEvent Virtual flash resource is removed from the host
    com.vmware.vc.host.vFlash.defaultModuleChangedEvent Default virtual flash module is changed to {vFlashModule} on the host
    com.vmware.vc.host.vFlash.modulesLoadedEvent Virtual flash modules are loaded or reloaded on the host
    com.vmware.vc.npt.VmAdapterEnteredPassthroughEvent Virtual NIC entered passthrough mode
    com.vmware.vc.npt.VmAdapterExitedPassthroughEvent Virtual NIC exited passthrough mode
    com.vmware.vc.vcp.FtDisabledVmTreatAsNonFtEvent FT Disabled VM protected as non-FT VM
    com.vmware.vc.vcp.FtFailoverEvent Failover FT VM due to component failure
    com.vmware.vc.vcp.FtFailoverFailedEvent FT VM failover failed
    com.vmware.vc.vcp.FtSecondaryRestartEvent Restarting FT secondary due to component failure
    com.vmware.vc.vcp.FtSecondaryRestartFailedEvent FT secondary VM restart failed
    com.vmware.vc.vcp.NeedSecondaryFtVmTreatAsNonFtEvent Need secondary VM protected as non-FT VM
    com.vmware.vc.vcp.TestEndEvent VM Component Protection test ends
    com.vmware.vc.vcp.TestStartEvent VM Component Protection test starts
    com.vmware.vc.vcp.VcpNoActionEvent No action on VM
    com.vmware.vc.vcp.VmDatastoreFailedEvent Virtual machine lost datastore access
    com.vmware.vc.vcp.VmNetworkFailedEvent Virtual machine lost VM network accessibility
    com.vmware.vc.vcp.VmPowerOffHangEvent VM power off hang
    com.vmware.vc.vcp.VmRestartEvent Restarting VM due to component failure
    com.vmware.vc.vcp.VmRestartFailedEvent Virtual machine affected by component failure failed to restart
    com.vmware.vc.vcp.VmWaitForCandidateHostEvent No candidate host to restart
    com.vmware.vc.vm.VmStateFailedToRevertToSnapshot Failed to revert the virtual machine state to a snapshot
    com.vmware.vc.vm.VmStateRevertedToSnapshot The virtual machine state has been reverted to a snapshot
    com.vmware.vc.vmam.AppMonitoringNotSupported Application Monitoring Is Not Supported
    com.vmware.vc.vmam.VmAppHealthMonitoringStateChangedEvent vSphere HA detected application heartbeat status change
    com.vmware.vc.vmam.VmAppHealthStateChangedEvent vSphere HA detected application state change
    com.vmware.vc.vmam.VmDasAppHeartbeatFailedEvent vSphere HA detected application heartbeat failure
    esx.audit.agent.hostd.started VMware Host Agent started
    esx.audit.agent.hostd.stopped VMware Host Agent stopped
    esx.audit.dcui.defaults.factoryrestore Restoring factory defaults through DCUI.
    esx.audit.dcui.disabled The DCUI has been disabled.
    esx.audit.dcui.enabled The DCUI has been enabled.
    esx.audit.dcui.host.reboot Rebooting host through DCUI.
    esx.audit.dcui.host.shutdown Shutting down host through DCUI.
    esx.audit.dcui.hostagents.restart Restarting host agents through DCUI.
    esx.audit.dcui.login.failed Login authentication on DCUI failed
    esx.audit.dcui.login.passwd.changed DCUI login password changed.
    esx.audit.dcui.network.factoryrestore Factory network settings restored through DCUI.
    esx.audit.dcui.network.restart Restarting network through DCUI.
    esx.audit.esxcli.host.poweroff Powering off host through esxcli
    esx.audit.esxcli.host.reboot Rebooting host through esxcli
    esx.audit.esximage.hostacceptance.changed Host acceptance level changed
    esx.audit.esximage.install.novalidation Attempting to install an image profile with validation disabled.
    esx.audit.esximage.install.securityalert SECURITY ALERT: Installing image profile.
    esx.audit.esximage.profile.install.successful Successfully installed image profile.
    esx.audit.esximage.profile.update.successful Successfully updated host to new image profile.
    esx.audit.esximage.vib.install.successful Successfully installed VIBs.
    esx.audit.esximage.vib.remove.successful Successfully removed VIBs
    esx.audit.host.boot Host has booted.
    esx.audit.host.maxRegisteredVMsExceeded The number of virtual machines registered on the host exceeded limit.
    esx.audit.host.stop.reboot Host is rebooting.
    esx.audit.host.stop.shutdown Host is shutting down.
    esx.audit.lockdownmode.disabled Administrator access to the host has been enabled.
    esx.audit.lockdownmode.enabled Administrator access to the host has been disabled.
    esx.audit.maintenancemode.canceled The host has canceled entering maintenance mode.
    esx.audit.maintenancemode.entered The host has entered maintenance mode.
    esx.audit.maintenancemode.entering The host has begun entering maintenance mode.
    esx.audit.maintenancemode.exited The host has exited maintenance mode.
    esx.audit.net.firewall.config.changed Firewall configuration has changed.
    esx.audit.net.firewall.disabled Firewall has been disabled.
    esx.audit.net.firewall.enabled Firewall has been enabled for port.
    esx.audit.net.firewall.port.hooked Port is now protected by Firewall.
    esx.audit.net.firewall.port.removed Port is no longer protected with Firewall.
    esx.audit.net.lacp.disable LACP disabled
    esx.audit.net.lacp.enable LACP eabled
    esx.audit.net.lacp.uplink.connected uplink is connected
    esx.audit.shell.disabled The ESXi command line shell has been disabled.
    esx.audit.shell.enabled The ESXi command line shell has been enabled.
    esx.audit.ssh.disabled SSH access has been disabled.
    esx.audit.ssh.enabled SSH access has been enabled.
    esx.audit.usb.config.changed USB configuration has changed.
    esx.audit.uw.secpolicy.alldomains.level.changed Enforcement level changed for all security domains.
    esx.audit.uw.secpolicy.domain.level.changed Enforcement level changed for security domain.
    esx.audit.vmfs.lvm.device.discovered LVM device discovered.
    esx.audit.vmfs.volume.mounted File system mounted.
    esx.audit.vmfs.volume.umounted LVM volume un-mounted.
    esx.clear.coredump.configured A vmkcore disk partition is available and/or a network coredump server has been configured.  Host core dumps will be saved.
    esx.clear.coredump.configured2 At least one coredump target has been configured. Host core dumps will be saved.
    esx.clear.net.connectivity.restored Restored network connectivity to portgroups
    esx.clear.net.dvport.connectivity.restored Restored Network Connectivity to DVPorts
    esx.clear.net.dvport.redundancy.restored Restored Network Redundancy to DVPorts
    esx.clear.net.lacp.lag.transition.up lag transition up
    esx.clear.net.lacp.uplink.transition.up uplink transition up
    esx.clear.net.lacp.uplink.unblocked uplink is unblocked
    esx.clear.net.redundancy.restored Restored uplink redundancy to portgroups
    esx.clear.net.vmnic.linkstate.up Link state up
    esx.clear.scsi.device.io.latency.improved Scsi Device I/O Latency has improved
    esx.clear.scsi.device.state.on Device has been turned on administratively.
    esx.clear.scsi.device.state.permanentloss.deviceonline Device that was permanently inaccessible is now online.
    esx.clear.storage.apd.exit Exited the All Paths Down state
    esx.clear.storage.connectivity.restored Restored connectivity to storage device
    esx.clear.storage.redundancy.restored Restored path redundancy to storage device
    esx.problem.3rdParty.error A 3rd party component on ESXi has reported an error.
    esx.problem.3rdParty.information A 3rd party component on ESXi has reported an informational event.
    esx.problem.3rdParty.warning A 3rd party component on ESXi has reported a warning.
    esx.problem.apei.bert.memory.error.corrected A corrected memory error occurred
    esx.problem.apei.bert.memory.error.fatal A fatal memory error occurred
    esx.problem.apei.bert.memory.error.recoverable A recoverable memory error occurred
    esx.problem.apei.bert.pcie.error.corrected A corrected PCIe error occurred
    esx.problem.apei.bert.pcie.error.fatal A fatal PCIe error occurred
    esx.problem.apei.bert.pcie.error.recoverable A recoverable PCIe error occurred
    esx.problem.application.core.dumped An application running on ESXi host has crashed and a core file was created.
    esx.problem.boot.filesystem.down Lost connectivity to the device backing the boot filesystem
    esx.problem.coredump.capacity.insufficient The storage capacity of the coredump targets is insufficient to capture a complete coredump.
    esx.problem.coredump.unconfigured No vmkcore disk partition is available and no network coredump server has been configured.  Host core dumps cannot be saved.
    esx.problem.coredump.unconfigured2 No coredump target has been configured. Host core dumps cannot be saved.
    esx.problem.cpu.amd.mce.dram.disabled DRAM ECC not enabled. Please enable it in BIOS.
    esx.problem.cpu.intel.ioapic.listing.error Not all IO-APICs are listed in the DMAR. Not enabling interrupt remapping on this platform.
    esx.problem.cpu.mce.invalid MCE monitoring will be disabled as an unsupported CPU was detected. Please consult the ESX HCL for information on supported hardware.
    esx.problem.cpu.smp.ht.invalid Disabling HyperThreading due to invalid configuration: Number of threads: {1} Number of PCPUs: {2}.
    esx.problem.cpu.smp.ht.numpcpus.max Found {1} PCPUs but only using {2} of them due to specified limit.
    esx.problem.cpu.smp.ht.partner.missing Disabling HyperThreading due to invalid configuration: HT partner {1} is missing from PCPU {2}.
    esx.problem.dhclient.lease.none Unable to obtain a DHCP lease.
    esx.problem.dhclient.lease.offered.noexpiry No expiry time on offered DHCP lease.
    esx.problem.esximage.install.error Could not install image profile.
    esx.problem.esximage.install.invalidhardware Host doesn't meet image profile hardware requirements.
    esx.problem.esximage.install.stage.error Could not stage image profile.
    esx.problem.hardware.acpi.interrupt.routing.device.invalid Skipping interrupt routing entry with bad device number: {1}. This is a BIOS bug.
    esx.problem.hardware.acpi.interrupt.routing.pin.invalid Skipping interrupt routing entry with bad device pin: {1}. This is a BIOS bug.
    esx.problem.hardware.ioapic.missing IOAPIC Num {1} is missing. Please check BIOS settings to enable this IOAPIC.
    esx.problem.host.coredump An unread host kernel core dump has been found.
    esx.problem.hostd.core.dumped Hostd crashed and a core file was created.
    esx.problem.iorm.badversion Storage I/O Control version mismatch
    esx.problem.iorm.nonviworkload Unmanaged workload detected on SIOC-enabled datastore
    esx.problem.migrate.vmotion.default.heap.create.failed Failed to create default migration heap
    esx.problem.migrate.vmotion.server.pending.cnx.listen.socket.shutdown Error with migration listen socket
    esx.problem.net.connectivity.lost Lost Network Connectivity
    esx.problem.net.dvport.connectivity.lost Lost Network Connectivity to DVPorts
    esx.problem.net.dvport.redundancy.degraded Network Redundancy Degraded on DVPorts
    esx.problem.net.dvport.redundancy.lost Lost Network Redundancy on DVPorts
    esx.problem.net.e1000.tso6.notsupported No IPv6 TSO support
    esx.problem.net.fence.port.badfenceid Invalid fenceId configuration on dvPort
    esx.problem.net.fence.resource.limited Maximum number of fence networks or ports
    esx.problem.net.fence.switch.unavailable Switch fence property is not set
    esx.problem.net.firewall.config.failed Firewall configuration operation failed. The changes were not applied.
    esx.problem.net.firewall.port.hookfailed Adding port to Firewall failed.
    esx.problem.net.gateway.set.failed Failed to set gateway
    esx.problem.net.heap.belowthreshold Network memory pool threshold
    esx.problem.net.lacp.lag.transition.down lag transition down
    esx.problem.net.lacp.peer.noresponse No peer response
    esx.problem.net.lacp.policy.incompatible Current teaming policy is incompatible
    esx.problem.net.lacp.policy.linkstatus Current teaming policy is incompatible
    esx.problem.net.lacp.uplink.blocked uplink is blocked
    esx.problem.net.lacp.uplink.disconnected uplink is disconnected
    esx.problem.net.lacp.uplink.fail.duplex uplink duplex mode is different
    esx.problem.net.lacp.uplink.fail.speed uplink speed is different
    esx.problem.net.lacp.uplink.inactive All uplinks must be active
    esx.problem.net.lacp.uplink.transition.down uplink transition down
    esx.problem.net.migrate.bindtovmk Invalid vmknic specified in /Migrate/Vmknic
    esx.problem.net.migrate.unsupported.latency Unsupported vMotion network latency detected
    esx.problem.net.portset.port.full Failed to apply for free ports
    esx.problem.net.portset.port.vlan.invalidid Vlan ID of the port is invalid
    esx.problem.net.proxyswitch.port.unavailable Virtual NIC connection to switch failed
    esx.problem.net.redundancy.degraded Network Redundancy Degraded
    esx.problem.net.redundancy.lost Lost Network Redundancy
    esx.problem.net.uplink.mtu.failed Failed to set MTU on an uplink
    esx.problem.net.vmknic.ip.duplicate A duplicate IP address was detected on a vmknic interface
    esx.problem.net.vmnic.linkstate.down Link state down
    esx.problem.net.vmnic.linkstate.flapping Link state unstable
    esx.problem.net.vmnic.watchdog.reset Nic Watchdog Reset
    esx.problem.ntpd.clock.correction.error NTP daemon stopped.  Time correction out of bounds.
    esx.problem.pageretire.platform.retire.request Memory page retirement requested by platform firmware.
    esx.problem.pageretire.selectedmpnthreshold.host.exceeded Number of host physical memory pages selected for retirement exceeds threshold.
    esx.problem.scratch.partition.size.small Size of scratch partition is too small.
    esx.problem.scratch.partition.unconfigured No scratch partition has been configured.
    esx.problem.scsi.apd.event.descriptor.alloc.failed No memory to allocate APD Event
    esx.problem.scsi.device.close.failed Scsi Device close failed.
    esx.problem.scsi.device.detach.failed Device detach failed
    esx.problem.scsi.device.filter.attach.failed Failed to attach filter to device.
    esx.problem.scsi.device.io.bad.plugin.type Plugin trying to issue command to device does not have a valid storage plugin type.
    esx.problem.scsi.device.io.inquiry.failed Failed to obtain INQUIRY data from the device
    esx.problem.scsi.device.io.invalid.disk.qfull.value Scsi device queue parameters incorrectly set.
    esx.problem.scsi.device.io.latency.high Scsi Device I/O Latency going high
    esx.problem.scsi.device.io.qerr.change.config QErr cannot be changed on device. Please change it manually on the device if possible.
    esx.problem.scsi.device.io.qerr.changed Scsi Device QErr setting changed
    esx.problem.scsi.device.is.local.failed Plugin's isLocal entry point failed
    esx.problem.scsi.device.is.pseudo.failed Plugin's isPseudo entry point failed
    esx.problem.scsi.device.is.ssd.failed Plugin's isSSD entry point failed
    esx.problem.scsi.device.limitreached Maximum number of storage devices
    esx.problem.scsi.device.state.off Device has been turned off administratively.
    esx.problem.scsi.device.state.permanentloss Device has been removed or is permanently inaccessible.
    esx.problem.scsi.device.state.permanentloss.noopens Permanently inaccessible device has no more opens.
    esx.problem.scsi.device.state.permanentloss.pluggedback Device has been plugged back in after being marked permanently inaccessible.
    esx.problem.scsi.device.state.permanentloss.withreservationheld Device has been removed or is permanently inaccessible.
    esx.problem.scsi.device.thinprov.atquota Thin Provisioned Device Nearing Capacity
    esx.problem.scsi.scsipath.badpath.unreachpe vVol PE path going out of vVol-incapable adapter
    esx.problem.scsi.scsipath.badpath.unsafepe Cannot safely determine vVol PE
    esx.problem.scsi.scsipath.limitreached Maximum number of storage paths
    esx.problem.scsi.unsupported.plugin.type Storage plugin of unsupported type tried to register.
    esx.problem.storage.apd.start All paths are down
    esx.problem.storage.apd.timeout All Paths Down timed out, I/Os will be fast failed
    esx.problem.storage.connectivity.devicepor Frequent PowerOn Reset Unit Attention of Storage Path
    esx.problem.storage.connectivity.lost Lost Storage Connectivity
    esx.problem.storage.connectivity.pathpor Frequent PowerOn Reset Unit Attention of Storage Path
    esx.problem.storage.connectivity.pathstatechanges Frequent State Changes of Storage Path
    esx.problem.storage.iscsi.discovery.connect.error iSCSI discovery target login connection problem
    esx.problem.storage.iscsi.discovery.login.error iSCSI Discovery target login error
    esx.problem.storage.iscsi.isns.discovery.error iSCSI iSns Discovery error
    esx.problem.storage.iscsi.target.connect.error iSCSI Target login connection problem
    esx.problem.storage.iscsi.target.login.error iSCSI Target login error
    esx.problem.storage.iscsi.target.permanently.lost iSCSI target permanently removed
    esx.problem.storage.redundancy.degraded Degraded Storage Path Redundancy
    esx.problem.storage.redundancy.lost Lost Storage Path Redundancy
    esx.problem.syslog.config System logging is not configured.
    esx.problem.syslog.nonpersistent System logs are stored on non-persistent storage.
    esx.problem.vfat.filesystem.full.other A VFAT filesystem is full.
    esx.problem.vfat.filesystem.full.scratch A VFAT filesystem, being used as the host's scratch partition, is full.
    esx.problem.visorfs.failure An operation on the root filesystem has failed.
    esx.problem.visorfs.inodetable.full The root filesystem's file table is full.
    esx.problem.visorfs.ramdisk.full A ramdisk is full.
    esx.problem.visorfs.ramdisk.inodetable.full A ramdisk's file table is full.
    esx.problem.vm.kill.unexpected.fault.failure A VM could not fault in the a page. The VM is terminated as further progress is impossible.
    esx.problem.vm.kill.unexpected.forcefulPageRetire A VM did not respond to swap actions and is forcefully powered off to prevent system instability.
    esx.problem.vm.kill.unexpected.noSwapResponse A VM did not respond to swap actions and is forcefully powered off to prevent system instability.
    esx.problem.vm.kill.unexpected.vmtrack A VM is allocating too many pages while system is critically low in free memory. It is forcefully terminated to prevent system instability.
    esx.problem.vmfs.ats.support.lost Device Backing VMFS has lost ATS Support
    esx.problem.vmfs.error.volume.is.locked VMFS Locked By Remote Host
    esx.problem.vmfs.extent.offline Device backing an extent of a file system is offline.
    esx.problem.vmfs.extent.online Device backing an extent of a file system came online
    esx.problem.vmfs.heartbeat.recovered VMFS Volume Connectivity Restored
    esx.problem.vmfs.heartbeat.timedout VMFS Volume Connectivity Degraded
    esx.problem.vmfs.heartbeat.unrecoverable VMFS Volume Connectivity Lost
    esx.problem.vmfs.journal.createfailed No Space To Create VMFS Journal
    esx.problem.vmfs.lock.corruptondisk VMFS Lock Corruption Detected
    esx.problem.vmfs.lock.corruptondisk.v2 VMFS Lock Corruption Detected
    esx.problem.vmfs.nfs.mount.connect.failed Unable to connect to NFS server
    esx.problem.vmfs.nfs.mount.limit.exceeded NFS has reached the maximum number of supported volumes
    esx.problem.vmfs.nfs.server.disconnect Lost connection to NFS server
    esx.problem.vmfs.nfs.server.restored Restored connection to NFS server
    esx.problem.vmfs.resource.corruptondisk VMFS Resource Corruption Detected
    esx.problem.vmsyslogd.remote.failure Remote logging host has become unreachable.
    esx.problem.vmsyslogd.storage.failure Logging to storage has failed.
    esx.problem.vmsyslogd.storage.logdir.invalid The configured log directory cannot be used.  The default directory will be used instead.
    esx.problem.vmsyslogd.unexpected Log daemon has failed for an unexpected reason.
    esx.problem.vpxa.core.dumped Vpxa crashed and a core file was created.
    hbr.primary.AppQuiescedDeltaCompletedEvent Application consistent delta completed.
    hbr.primary.ConnectionRestoredToHbrServerEvent Connection to VR Server restored.
    hbr.primary.DeltaAbortedEvent Delta aborted.
    hbr.primary.DeltaCompletedEvent Delta completed.
    hbr.primary.DeltaStartedEvent Delta started.
    hbr.primary.FSQuiescedDeltaCompletedEvent File system consistent delta completed.
    hbr.primary.FSQuiescedSnapshot Application quiescing failed during replication.
    hbr.primary.FailedToStartDeltaEvent Failed to start delta.
    hbr.primary.FailedToStartSyncEvent Failed to start full sync.
    hbr.primary.HostLicenseFailedEvent vSphere Replication is not licensed replication is disabled.
    hbr.primary.InvalidDiskReplicationConfigurationEvent Disk replication configuration is invalid.
    hbr.primary.InvalidVmReplicationConfigurationEvent Virtual machine replication configuration is invalid.
    hbr.primary.NoConnectionToHbrServerEvent No connection to VR Server.
    hbr.primary.NoProgressWithHbrServerEvent VR Server error: {reason.@enum.hbr.primary.ReasonForNoServerProgress}
    hbr.primary.QuiesceNotSupported Quiescing is not supported for this virtual machine.
    hbr.primary.SyncCompletedEvent Full sync completed.
    hbr.primary.SyncStartedEvent Full sync started.
    hbr.primary.SystemPausedReplication System has paused replication.
    hbr.primary.UnquiescedDeltaCompletedEvent Delta completed.
    hbr.primary.UnquiescedSnapshot Unable to quiesce the guest.
    hbr.primary.VmLicenseFailedEvent vSphere Replication is not licensed replication is disabled.
    hbr.primary.VmReplicationConfigurationChangedEvent Replication configuration changed.
    vim.event.LicenseDowngradedEvent License downgrade
    vim.event.SystemSwapInaccessible System swap inaccessible
    vim.event.UnsupportedHardwareVersionEvent This virtual machine uses hardware version {version} which is no longer supported. Upgrade is recommended.
    vprob.net.connectivity.lost Lost Network Connectivity
    vprob.net.e1000.tso6.notsupported No IPv6 TSO support
    vprob.net.migrate.bindtovmk Invalid vmknic specified in /Migrate/Vmknic
    vprob.net.proxyswitch.port.unavailable Virtual NIC connection to switch failed
    vprob.net.redundancy.degraded Network Redundancy Degraded
    vprob.net.redundancy.lost Lost Network Redundancy
    vprob.scsi.device.thinprov.atquota Thin Provisioned Device Nearing Capacity
    vprob.storage.connectivity.lost Lost Storage Connectivity
    vprob.storage.redundancy.degraded Degraded Storage Path Redundancy
    vprob.storage.redundancy.lost Lost Storage Path Redundancy
    vprob.vmfs.error.volume.is.locked VMFS Locked By Remote Host
    vprob.vmfs.extent.offline Device backing an extent of a file system is offline.
    vprob.vmfs.extent.online Device backing an extent of a file system is online.
    vprob.vmfs.heartbeat.recovered VMFS Volume Connectivity Restored
    vprob.vmfs.heartbeat.timedout VMFS Volume Connectivity Degraded
    vprob.vmfs.heartbeat.unrecoverable VMFS Volume Connectivity Lost
    vprob.vmfs.journal.createfailed No Space To Create VMFS Journal
    vprob.vmfs.lock.corruptondisk VMFS Lock Corruption Detected
    vprob.vmfs.nfs.server.disconnect Lost connection to NFS server
    vprob.vmfs.nfs.server.restored Restored connection to NFS server
    vprob.vmfs.resource.corruptondisk VMFS Resource Corruption Detected

    Ну а вот так вот будет выглядеть сработавший кастомный аларм в интерфейсе VMware vSphere Web Client:


    Таги: VMware, vSphere, Troubleshooting, ESXi

    VMware vSAN Sizer - утилита для подбора оборудования и расчета объема хранилищ под кластеры vSAN.


    Компания VMware сделала доступной небольшую онлайн-утилиту для сайзинга серверов хранения виртуальных машин, работающих в отказоустойчивых кластерах хранилищ - VMware vSAN Sizer. Также она производит подбор необходимых конфигураций серверов (для расчетов принимается, что все узлы будут использовать конфигурацию All-Flash SSD).

    VMware vSAN Sizer доступен по адресу: https://vsansizer.vmware.com/

    От пользователя требуется лишь ввести число виртуальных машин и объем их виртуальных дисков (пока указано, что для расчета используется некий усредненный тип нагрузки, возможно, в будущем будут добавлены еще профили нагрузок ВМ).

    На первом этапе нам показывают, сколько нужно серверов и неразмеченного хранилища (Raw Storage):

    Ниже мы видим технические характеристики каждого из хостов ESXi:

    Ну а в рамках дополнительной информации можно вывести параметры дисковых групп (кэш и емкость хранения). В моем случае это 2 дисковых группы:

    В утилите VMware vSAN Sizer расположена ссылка на расширенную версию, которая доступна для партнеров, но когда я зашел под партнерским аккаунтом, то увидел там только пустую белую страницу с шапкой меню.


    Таги: VMware, vSAN, Sizing, VMachines, Storage, Hardware

    <<   <    1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48    >   >>
Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware Kubernetes VMachines Enterprise Offtopic Broadcom Veeam Microsoft Cloud StarWind NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V VCF vSAN VKS Private AI VMmark Operations Certification Memory NVMe AI VMConAWS vDefend VCDX Explore Tanzu Workstation Update Russian Ports HCX Live Recovery CloudHealth NSX Labs Backup Chargeback Aria VCP Intel Community Ransomware Stretched Network VMUG VCPP Data Protection ONE V2V DSM DPU Omnissa EUC Avi Skyline Host Client GenAI Horizon SASE Workspace ONE Networking Tools Performance Lifecycle AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile SRM ARM HCI Converter Photon OS VEBA App Volumes Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey RDMA vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics HCIBench SureBackup Docs Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Availability Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V Capacity KB VirtualCenter NFS ThinPrint Upgrade VCAP Orchestrator ML Director SIOC Troubleshooting Bugs ESA Android Python Hub Guardrails CLI Driver Foundation HPC Optimization SVMotion Diagram Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Работа с дисками виртуальных машин VMware.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Как поднять программный iSCSI Target на Windows 2003 Server для ESX

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2026, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge